在建模重复的法院游戏时,许多过去的尝试都认为需求是静止的。这与现实世界的情景不一致,其中市场需求可以通过产品的一生以无数的原因来实现。在本文中,我们模拟了重复的Cournot游戏,不符合非静止需求,使得公司/代理人面临非静止多武装强盗问题的单独实例。代理可以选择的武器/行动代表离散生产量;这里,排序动作空间。代理商是独立和自主的,无法观察到环境中的任何事情;他们只能在采取行动后看到自己的奖励,只能努力最大化这些奖励。我们提出了一种新颖的算法对加权探索(AWE)$ \ EPSILON $ -GREEDY'的自适应,这些探索基于众所周知的$ \ epsilon $ -greedy方法远程。该算法检测和量化由于不同的市场需求而导致的奖励的变化,并与需求变化程度的程度不同,从而使代理能够更好地识别新的最佳动作。为了有效探索,它还部署了一种用于称重利用有序动作空间的动作的机制。我们使用模拟来研究市场上各种均衡的出现。此外,我们在系统中的总代理数量和行动空间的大小之间研究了我们的方法的可扩展性。我们在我们的模型中考虑对称和不对称的公司。我们发现,使用我们提出的方法,代理商能够根据需求的变化迅速改变他们的行动方针,并且在许多模拟中也从事契合行为。
translated by 谷歌翻译